众所周知,过度参数化的深网能够完全拟合训练数据,同时显示出良好的概括性能。从线性回归上的直觉中得出的常见范式表明,大型网络甚至可以插入嘈杂的数据,而不会显着偏离地面真相信号。目前,缺少这种现象的精确表征。在这项工作中,我们介绍了深网的损失景观清晰度的实证研究,因为我们系统地控制了模型参数和训练时期的数量。我们将研究扩展到培训数据的街区以及清洁和嘈杂标记的样本。我们的发现表明,输入空间中的损失清晰度均遵循模型和时期的双重下降,在嘈杂的标签周围观察到了较差的峰值。与现有直觉相比,小型插值模型尤其适合干净和嘈杂的数据,但大型模型表达了平稳而平坦的损失景观。
translated by 谷歌翻译
我们提出了循环式的舞蹈风格转移系统,该系统将以一种舞蹈方式将现有的运动剪辑转换为另一种舞蹈风格的运动剪辑,同时试图保留舞蹈的运动背景。我们的方法扩展了现有的自行车结构,用于建模音频序列,并集成多模式变压器编码器以说明音乐上下文。我们采用基于序列长度的课程学习来稳定培训。我们的方法捕获了运动框架之间丰富而长期的内部关系,这是运动转移和合成工作中的普遍挑战。我们进一步介绍了在舞蹈运动的背景下衡量转移力量和内容保存的新指标。我们进行了一项广泛的消融研究以及一项人类研究,其中包括30名具有5年或更长时间的舞蹈经验的参与者。结果表明,循环量会以目标样式产生逼真的运动,从而在自然性,传递强度和内容保存上明显优于基线周期。
translated by 谷歌翻译
在这项工作中,我们对基于梯度的元学习(GBML)方法的适应后参数的分布进行了分析。先前的工作已经注意到,对于图像分类的情况,这种适应只发生在网络的最后一层。我们提出了一个更一般的观念,即参数通过与任务空间相同的维度的低维\ emph {subpace}进行更新,并表明这也可以进行回归。此外,诱导的子空间结构提供了一种方法来估计常见的几个弹药学习数据集任务空间的内在维度。
translated by 谷歌翻译
从低级视觉理论中出现,可说的过滤器在先前的卷积神经网络上的工作中发现了对应物,等同于僵化的转换。在我们的工作中,我们提出了一种基于球形决策表面的神经元组成的基于馈送的可转向学习方法,并在点云上运行。这种球形神经元是通过欧几里得空间的共形嵌入来获得的,最近在点集的学习表示中被重新审视。为了关注3D几何形状,我们利用球形神经元的等轴测特性,并得出3D可识别性约束。在训练球形神经元以在规范方向上分类点云之后,我们使用四面体基础来使神经元四倍,并构建旋转 - 等级的球形滤波器库。然后,我们应用派生的约束来插值过滤器库输出,从而获得旋转不变的网络。最后,我们使用合成点集和现实世界3D骨架数据来验证我们的理论发现。该代码可在https://github.com/pavlo-melnyk/steerable-3d-neurons上找到。
translated by 谷歌翻译